Math'φsics

Menu
  • Acceuil
  • Maths
  • Physique
    • Maths
    • Physique
  • Stabilité d'un sous-espace par une application linéaire

    Formulaire de report


    Propriétés


    Existence d'un sous-espace invariant

    Proposition :
    Si \(A:E\to E\) est une application linéaire d'un \({\Bbb R}\)-espace vectoriel \(E\), alors il existe un sous-espace invariant par \(A\)

    Remarque :
    Si \(A\) est inversible (i.e. \(\operatorname{det} A\ne0\)) sur \(U\), alors \(A(U)=U\)

    Invariance d'un sous-espace :
    • \(U\) est un sous-espace vectoriel
    • \(A\) est une fonction inversible sur \(U\) (\(\operatorname{det} A\ne0\))

    $$\Huge\implies$$
    • \(A(U)=U\)

    END


    Invariance par la fonction adjointe

    Proposition :
    Si \(U\subseteq E\) est \(A\)-invariant, alors \(U^\perp\) est \(A^*\)-invariant

    (Ensembles orthogonaux - Complément orthogonal, Fonction adjointe)
    Montrer que si \(U\subseteq E\) est \(A\)-invariant, alors \(U^\perp\) est \(A^*\)-invariant

    Écriture avec le produit scalaire

    \(\forall x\in U,\forall y\in U^\perp\), $$0=\langle Ax,y\rangle=\langle x,A^*y\rangle\implies A^*(U^\perp)\subseteq U^\perp$$

    Corollaire :
    Si \(U\subseteq E\) est \(A\)-invariant, et si \(A\) est symétrique, antisymétrique ou orthogonale, alors \(U^\perp\) est \(A\)-invariant

    :
    • \(U\) est un sous-ensemble de \(E\) \(A\)-invariant
    • \(A\) est symétrique, antisymétrique ou orthogonale

    $$\Huge\iff$$
    • \(U^\perp\) est \(A\)-invariant



    Montrer que si \(U\subseteq E\) est \(A\)-invariant, et si \(A\) est symétrique, antisymétrique ou orthogonale, alors \(U^\perp\) est \(A\)-invariant

    Fonction adjointe de fonctions symétriques et antisymétriques
    $$\begin{align} A\text{ symétrique }&\implies A^*=A\\ A\text{ antisymétrique }&\implies A^*=-A\end{align}$$

    OK pour les fonctions antisymétriques car \(U^\perp\) est un sous-espace vectoriel
    Par la proposition précédente, $$A^*(U^\perp)\subseteq U^\perp\implies -A(U^\perp)=A(-U^\perp)=A(U^\perp)$$ car \(-U^\perp=U^\perp\) (s.e.v)

    Conservation du produit scalaire par une fonction \(A\) orthogonale pour deux vecteurs \(\in U,U^\perp\)
    Pour \(A\in O(x)\), $$\left.\begin{array} d\forall x\in U\\ \forall y\in U^\perp\end{array}\right\}\implies\underbrace{\langle Ax,Ay\rangle}_{=0}=\langle x,y\rangle$$

    \(A\) surjection \(\to\) \(A\) bijection de \(U\) sur \(U\)
    \(\forall z\in U,\exists x\in U,z=Ax\) car \(A\) est inversible et \(A(U)=U\)

    \(A\) bijection de \(U^\perp\) sur \(U^\perp\)

    D'où \(\forall z\in U,\forall y\in U^\perp,\langle Ay,z\rangle=0\) d'où \(A(U^\perp)\subseteq U^\perp\) et \(A(U^\perp)=U^\perp\)



    Lien avec les éléments propres

    Remarque :
    L'existence d'un sous-espace \(U\) invariant par \(A\) vient du fait que certaines valeurs propres de \(A\) peuvent être complexes, et à la placed'une droite propre, on obtient un plan invariant venant d'un espace \({\Bbb C}\)-vectoriel dont "la partie réelle est \(E\)"

    (Vecteur propre - Valeur propre)
    Théorème :
    Si \(A:E\to E\) est symétrique, alors il existe une base orthonormée \(\{e_1,\dots,e_n\}\) telle que chaque \(e_i\) est un vecteur propre de \(A\)

    (réduction d'endomorphismes) :
    • \(A:E\to E\) est une fonction/matrice symétrique

    $$\Huge\iff$$
    • il existe une base orthonormée \(\{e_1,\dots,e_n\}\) telle que chaque \(e_i\) est un vecteur propre de \(A\)



    Montrer que si \(A:E\to E\) est symétrique, alors il existe une base orthonormée \(\{e_1,\dots,e_n\}\) telle que chaque \(e_i\) est un vecteur propre de \(A\)

    Récurrence : initialisation OK
    On procède par récurrence sur \(n=\operatorname{dim} E\)
    Si \(\operatorname{dim} E=1\) (\(E=\langle e\rangle\)), alors $$Ae=\lambda e$$ et l'affirmation est vraie

    Hérédité : cas \(A\lvert_U\) symétrique
    Soit \(n\in{\Bbb N}\)
    Par une proposition précédente, \(\exists U\subseteq E\) tel que \(U\) est \(A\)-invariant
    Cas 1 : \(A\lvert_U\) est aussi symétrique
    Donc $$A\lvert_U=\begin{pmatrix} a&b\\ b&c\end{pmatrix}=B$$

    Chercher les valeurs propres
    On cherche les valeurs propres de \(B\) : $$\lambda_{1,2}=\frac{a+c\pm\sqrt{(a-c)^2+b^2}}2\in{\Bbb R}\quad\text{ car }\;(a-c)^2+b^2\geqslant0$$

    Vérifier que les vecteurs propres orthogonaux si \(\lambda_1\ne\lambda_2\)
    De plus, si \(\lambda_1\ne\lambda_2\), les vecteurs propres correspondants sont orthogonaux car $$\lambda_1\langle e_1,e_2\rangle=\langle Ae_1,e_2\rangle\underset{\text{symétrie}}=\langle e_1,Ae_2\rangle=\langle e_1,\lambda_2 e_2\rangle=\lambda_2\langle e_1,e_2\rangle$$ puisque \(\lambda_1\ne\lambda_2\), on a \(\langle e_1,e_2\rangle=0\)

    Considérer aussi le cas \(\lambda_1=\lambda_2\)
    Si \(\lambda_1=\lambda_2\), on prend un vecteur propre \(e\) correspondant et on considère \(U^\perp\) si \(\lambda_1\ne\lambda_2\) et \(e^\perp\) si \(\lambda_1=\lambda_2\)

    Appliquer la récurrence

    Par une précédente proposition, \(U^\perp\) est \(A\)-invariant et \(\operatorname{dim} U^\perp\leqslant n-1\)
    On applique donc la récurrence à \(U^\perp\)

    Théorème :
    Si \(A\in O(n)\), alors il existe une base orthonormée dans laquelle \(A\) a la forme $$A={{\begin{pmatrix} R(\alpha_1)&&&&&&&&\varnothing\\ &\ddots\\ &&R(\alpha_k)\\ &&&-1\\ &&&&\ddots\\ &&&&&-1\\ &&&&&&1\\ &&&&&&&\ddots\\ \varnothing&&&&&&&&1\end{pmatrix}}}$$ avec $$R(\alpha_i)={{\begin{pmatrix}\cos\alpha_i&-\sin\alpha_i\\ \sin\alpha_i&\cos\alpha_i\end{pmatrix}}}$$

    (Rotation linéaire)
    Montrer que si \(A\in O(n)\), alors il existe une base orthonormée dans laquelle \(A\) a la forme $$A=\begin{pmatrix} R(\alpha_1)&&&&&&&&\varnothing\\ &\ddots\\ &&R(\alpha_k)\\ &&&-1\\ &&&&\ddots\\ &&&&&-1\\ &&&&&&1\\ &&&&&&&\ddots\\ \varnothing&&&&&&&&1\end{pmatrix}$$ avec $$R(\alpha_i)=\begin{pmatrix}\cos\alpha_i&-\sin\alpha_i\\ \sin\alpha_i&\cos\alpha_i\end{pmatrix}$$

    Existence du sous-espace invariant
    Par une précédente proposition, il existe un sous-espace \(U\) invariant par \(A\) tel que \(\operatorname{dim} U\in\{1,2\}\)

    Si \(\operatorname{dim} U=2\) et qu'on a la matrice, alors on peut obtenir une base orthogonale
    Si \(\operatorname{dim} U=2\), on a \(A(U)=U\)
    Alors \(A\lvert_U\in O(2)\) et soit $$A\lvert_U=\begin{pmatrix}\cos\alpha&-\sin\alpha\\ \sin\alpha&\cos\alpha\end{pmatrix}$$ dans la base canonique de \(U={\Bbb R}^2\)
    Et si \(A\lvert_U\) est donnée par ceci, alors il existe une base orthogonale (donnée par les droites \(L\) et \(M\)) dans laquelle la matrice est $$\begin{pmatrix}1&0\\ 0&-1\end{pmatrix}$$

    Si \(\operatorname{dim} U=1\), existence d'un vecteur propre qui a pour valeur propre \(\pm1\)
    Si \(\operatorname{dim} U=1\), \(\exists e\in U,E=\langle e\rangle\) et \(Ae\in U\) d'où \(\exists\lambda\in{\Bbb R}\) \(Ae=\lambda e\) et par la remarque \(\lambda\in\{-1,1\}\)

    Récurrence sur \(\operatorname{dim} E\) appliquée à \(U^\perp\) qui est \(A\)-invariant \(\to\) permutation et normalisation des vecteurs

    Par récurrence sur \(\operatorname{dim} E\) appliquée à \(U^\perp\) qui est \(A\)-invariant et en permutant et normalisant les vecteurs de la base trouvée, on obtient la matrice


    Remarque :
    Si \(\lambda\in{\Bbb R}\) est une valeur propre de \(A\in O(n)\), alors \(\lambda\in\{-1,1\}\)

    Montrer que si \(\lambda\in{\Bbb R}\) est une valeur propre de \(A\in O(n)\), alors \(\lambda\in\{-1,1\}\)

    Égalités dues aux éléments propres et à l'orthogonalité

    En effet si \(Ax=\lambda x\), alors $$\underbrace{\langle Ax,Ax\rangle}_{\lambda^2\langle x,x\rangle}=\langle x,x\rangle$$



    Théorème d'Euler

    théorème d'Euler :
    Si \(A\in O(3)\), alors il existe une base orthonormée telle que $$A={{\begin{pmatrix}\cos\alpha&-\sin\alpha&0\\ \sin\alpha&\cos\alpha&0\\ 0&0&\pm1\end{pmatrix}}}$$
    On a \(A\in SO(3)\) si et seulement si \(\operatorname{det} A=1\) (i.e. Le \(\pm1\) est \(1\))
    Les trois valeurs propres de cette matrice sont \(1\), \(\cos\alpha+i\sin\alpha\) et \(\cos\alpha-i\sin\alpha\)

    Théorème d'Euler (réduction d'endomorphismes) :
    • \(A\in O(3)\) (matrice orthogonale de format \(3\times3\))

    $$\Huge\iff$$
    • il existe une base orthonormée telle que $$A=\begin{pmatrix}\cos\alpha&-\sin\alpha&0\\ \sin\alpha&\cos\alpha&0\\ 0&0&\pm1\end{pmatrix}$$
    • les trois valeurs propres de \(A\) sont \(1\), \(e^{i\alpha}\) et \(e^{-i\alpha}\)




    Exercices

    On considère l'application linéaire \(\mathcal A:{\Bbb R}^3\to{\Bbb R}^3\) dont la matrice dans la base canonique est : $$A=\begin{pmatrix}1/2&-1/2&-\sqrt2/2\\ 1/2&-1/2&\sqrt2/2\\ -\sqrt2/2&-\sqrt2/2&0\end{pmatrix}$$
    Vérifier que \(A\in SO_3({\Bbb R})\)

    Vérifier que les colonnes sont orthonormales
    Soient \(C_1,C_2,C_3\) les trois colonnes de la matrice
    $$\begin{align}\langle C_1,C_1\rangle&=1\\ \langle C_1,C_2\rangle&=0\\ \langle C_1,C_3\rangle&=0\\ \langle C_2,C_2\rangle&=1\\ \langle C_2,C_3\rangle&=0\\ \langle C_3,C_3\rangle&=1\end{align}$$

    Calculer le déterminant

    Le déterminant ne change pas avec un changement de base
    \(\operatorname{det} A=1\), donc on a bien \(A\in SO(3)\)


    On considère l'application linéaire \(\mathcal A:{\Bbb R}^3\to{\Bbb R}^3\) dont la matrice dans la base canonique est : $$A=\begin{pmatrix}1/2&-1/2&-\sqrt2/2\\ 1/2&-1/2&\sqrt2/2\\ -\sqrt2/2&-\sqrt2/2&0\end{pmatrix}\in SO(3)$$
    Avec \(\operatorname{det} A=1\)
    Trouver la matrice \(A^\prime\) de \(\mathcal A\), donnée par le théorème d'Euler sur les rotations dans \({\Bbb R}^3\) et donner une base orthonormée dans laquelle la matrice de \(\mathcal A\) est \(A^\prime\)

    Vecteur propre pour la valeur propre \(1\)
    On cherche \(v_3\) un vecteur propre correspondant à la valeur propre \(1\) : $$\begin{pmatrix}-1/2&-1/2&-\sqrt2/2\\ 1/2&-3/2&\sqrt2/2\\ -\sqrt2/2&-\sqrt2/2&-1\end{pmatrix}\begin{pmatrix} x_1\\ x_2\\ x_3\end{pmatrix}=0\implies\begin{cases} x_2=0\\ x_1=-\sqrt2x_3\end{cases}$$ on prend \(v_3\begin{pmatrix}-\sqrt2\\ 0\\ 1\end{pmatrix}\)

    Prendre un vecteur de \(v_3^\perp\)
    Cherchons \(\Pi=v_3^\perp\)
    $$\Pi=\{ y:-\sqrt2 y_1+y_3=0\}$$ on prend \(v_1=\begin{pmatrix}0\\ 1\\ 0\end{pmatrix}\)

    Prendre un dernier vecteur orthogonal aux deux autres
    On doit prendre \(v_2\in v_1^\perp\cap v_3^\perp\)
    On prend \(v_2\begin{pmatrix}1\\ 0\\ \sqrt2\end{pmatrix}\)

    Chercher \(\varphi\) via les produits scalaires dans la nouvelle base (on aurait aussi pu avoir le \(\cos\) avec la trace, car elle est invariante par changement de base)
    Dans la base recherchée, on a : $$A\lvert_\Pi\;=\begin{pmatrix}\cos\varphi&-\sin\varphi\\ \sin\varphi&\cos\varphi\end{pmatrix}\qquad\text{dans la base }\{v_1,v_2\}$$

    Donc : $$\begin{align} Av_1&=\begin{pmatrix}\cos\varphi,\sin\varphi,0\end{pmatrix}\quad\text{ et }\quad Av_2=(-\sin\varphi,\cos\varphi,0)\end{align}$$
    $$\begin{align}\langle Av_1,v_1\rangle&=\underbrace{\lVert Av_1\rVert}_{=\lVert v_1\rVert\text{ car matrice orthogonale}}\underbrace{\lVert v_1\rVert}_1\cos\varphi&&\implies\cos\varphi=-\frac12\\ \langle Av_1,v_2\rangle&=\lVert v_1\rVert\lVert v_2\rVert\cos\left(\frac\pi2-\varphi\right)&&\implies\sin\varphi=-\frac{\sqrt3}2\end{align}$$
    On a donc \(\varphi=\frac{4\pi}3\)

    Normalisation et conclusion

    On pose \(u_1=v_1,u_2=v_2/\sqrt3,u_3=v_3/\sqrt3\)
    Alors la matrice dans cette base est : $$\begin{pmatrix}-1/2&\sqrt3/2&0\\ -\sqrt3/2&-1/2&0\\ 0&0&1\end{pmatrix}=\begin{pmatrix}\cos\frac{4\pi}3&-\sin\frac{4\pi}3&0\\ \sin\frac{4\pi}3&\cos\frac{4\pi}3&0\\ 0&0&1\end{pmatrix}$$



  • Rétroliens :
    • Endomorphisme semi-simple
    • Matrice orthogonale
    • Module